吴恩达Deep Learning课程学习笔记(七) 发表于 2018-10-16 | 更新于: 2018-10-16 | 分类于 学习笔记 吴恩达Deep Learning课程学习笔记 第三周 归一化网络的激活函数在神经网络中主要是对Z进行归一化当我们想在隐藏层中使用不同分布的时候,可以对Z进行计算其中参数γ和β是超参数,如果γ=(σ2+ε)1/2,β=μ,则 Softmax回归Softmax回归其实就是逻辑回归的推广,它能够对多个特征进行分类。Softmax函数的形式为:Softmax回归的损失函数为: